Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?
Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Conditional Access), Joiner-Mover-Leaver-Prozesse, MFA-Enforcement sowie Monitoring und Analyse von Berechtigungsanomalien mit klaren Maßnahmen und Eskalationen.Zudem verantwortest du die BCM- und Disaster-Recovery-Organisation: Erstellung und Pflege von BCM-Plänen und DR-Konzepten (RTO/RPO), Planung und Durchführung von DR-Tests, Krisenübungen, Notfallhandbüchern sowie praxisnahen Eskalationspfaden.Du gestaltest den Richtlinien- und Policy-Lifecycle: Erstellung, Review und Rollout von IT-/OT-/Digital-Richtlinien, strukturiertes Exception Handling (inkl.
Conditional Access), Joiner-Mover-Leaver-Prozesse, MFA-Enforcement sowie Monitoring und Analyse von Berechtigungsanomalien mit klaren Maßnahmen und Eskalationen.Zudem verantwortest du die BCM- und Disaster-Recovery-Organisation: Erstellung und Pflege von BCM-Plänen und DR-Konzepten (RTO/RPO), Planung und Durchführung von DR-Tests, Krisenübungen, Notfallhandbüchern sowie praxisnahen Eskalationspfaden.Du gestaltest den Richtlinien- und Policy-Lifecycle: Erstellung, Review und Rollout von IT-/OT-/Digital-Richtlinien, strukturiertes Exception Handling (inkl.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Anforderungsdefinition: Sie definieren und dokumentieren funktionale Anforderungen und Spezifikationen für neue Systementwicklungen und Anpassungen. Funktionale Tests: Sie treiben funktionale Tests von Systemänderungen, Erweiterungen und Schnittstellen voran. Datenqualität: Sie definieren, implementieren und überwachen Datenqualitätsregeln im SAP MDG M.
Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
Ihre Aufgaben Übersetzung von Business- und Engineering-Anforderungen in funktionale Lösungen in PLM (Teamcenter) und SAP S/4HANA MDG-M Schnittstellenfunktion zwischen Fachbereich, Engineering und IT inkl. aktiver Mitgestaltung von Lösungsdesign und Umsetzbarkeit Erstellung und Dokumentation von fachlichen Anforderungen, Spezifikationen und Lösungskonzepten Steuerung und Durchführung funktionaler Tests (Änderungen, Erweiterungen, Schnittstellen) Definition, Implementierung und Monitoring von Data-Governance- und Datenqualitätsregeln in SAP MDG-M Analyse und Bereinigung von Stammdatenproblemen (Dublette, Klone, Kollisionen) Leitung von Abstimmungen zu Schnittstellen zwischen SAP (MM, PP, optional PM/QM/SD), PLM und angebundenen Systemen Erstellung von Anwenderdokumentationen und Schulungsunterlagen sowie fachliche Eskalationsinstanz Ihr Profil Mindestens 6 Jahre Erfahrung in IT-Implementierungsprojekten, davon 2 Jahre in vergleichbaren Projekten im Engineering-/PLM-/SAP-Umfeld Fundierte Expertise in PLM (idealerweise Teamcenter) und SAP S/4HANA MDG-M inkl.
Konzeption und Umsetzung von GenAI-Anwendungen mit Retrieval Augmented Generation (RAG) Entwicklung und Integration von Backend Services in Python Integration von KI-Systemen in bestehende Systemlandschaften und APIs Sicherstellung von Datenqualität und Data Readiness für KI-Anwendungen Umsetzung von Schnittstellen zwischen Datenquellen, KI-Modellen und Zielsystemen Unterstützung bei Freigabeprozessen und Governance Fragen rund um KI-Systeme Aufbau stabiler Fallback- und Fehlerbehandlungsmechanismen Mitwirkung bei Tests, Qualitätssicherung und produktiver Betriebsfähigkeit Zusammenarbeit mit Fachbereichen und IT zur Integration der KI-Lösung Fundierte Python- und Backend-Entwicklungserfahrung, sowie Erfahrung mit Generative AI und RAG-Architekturen Nachweisbare Projekterfahrung mit produktiven KI-Systemen Erfahrung in Systemintegration und API-Anbindungen, sowie Verständnis für Datenqualität und Datenaufbereitung für KI Erfahrung im Umgang mit Schnittstellen, Datenflüssen und Integrationsarchitekturen Erfahrung mit Security- und Datenschutzanforderungen bei KI-Systemen Erfahrung mit Testing-Strategien für KI-Anwendungen Implementierung von Fallback-Logiken und Fehlerbehandlung Erfahrung mit Cloud-naher Umsetzung, idealerweise im Umfeld IONOS Cloud Erfahrung mit Deployment und Betrieb von KI-Systemen Wünschenswert: Erfahrung mit Datenverarbeitung und Data Readiness, Kenntnisse in Logging, Monitoring und Tracing, Verständnis von Contact Center- oder Ticketing-Systemen, Erfahrung mit Observability in Backend-Systemen Eine übertarifliche Bezahlung Jährlicher Urlaubsanspruch von 30 Tagen Hays ermöglicht den Einstieg bei innovativen Unternehmen Ihr Kontakt Ansprechpartner Stepan Karapetyan Referenznummer 866190/1 Kontakt aufnehmen E-Mail: stepan.karapetyan@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
HV Authorised Person (Experienced with HV Systems) Electrical/Mechanical Engineering HNC or HND (Successfully completed apprenticeship in either) C&G Pts. 1 & 2, equivalent or exceeds. 17th Edition IEE: Wiring and Installation (Ability to attain 18th Edition through additional training) C&G 2391 test and inspection; BS 7671:2001 for inspection, testing and certification. Proven experience in data centre operations management, preferably in a mission-critical environment.
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
Key Responsibilities: FI-CO Process Standardization & Documentation Analyze, harmonize, and document global FI and CO processes (ECC and/or S/4 context)Support alignment between Accounting and Controlling processes and responsibilitiesCapture governance-relevant best practices and design decisions Finance Governance & Framework Support Support development of global Finance and Controlling frameworks, guidelines, and principlesTranslate governance requirements into S/4-ready FI-CO process and reporting designs Global SAP FI-CO Reporting Design Support the design of globally available SAP FI-CO / ERP reporting conceptsDefine standard financial and management reporting structures (design only, not execution)Align reporting concepts with both Controlling and Accounting stakeholders S/4HANA Transformation, Enablement & Collaboration Contribute to S/4HANA FI-CO design discussions from a business Finance perspectiveInteract with local and regional Finance, Accounting, and Controlling teams to identify requirementsSupport consolidation of local inputs into global standards under guidanceSupport creation of training materials and contribute to training deliverySupport the SAP FI-CO team in the development of S/4HANA test concepts and test scripts, aligned with the global network of local test users Key Requirements: Experience 4–6 years of Finance / Controlling experienceHands-on SAP FI and CO experience (ECC or S/4HANA) – mandatoryPractical exposure to: - Financial Accounting (FI) - Controlling (CO), incl.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Working closely with Product Owners and cross-functional teams, you’ll provide full-cycle A/B test analytical support, create tracking concepts, and translate user behavior and shop performance insights into actionable business recommendations.
Du begleitest Schnittstellen end-to-end: von der Anforderungsaufnahme über Design und Umsetzung bis hin zu Tests, Rollout und Betrieb – gemeinsam mit Deinen Kolleg*innen und externen Partnern. Du arbeitest eng mit unseren Fachbereichen zusammen, priorisierst pragmatisch nach Wirkung und entwickelst Lösungen konsequent aus dem Business heraus.
Dein Platz bei uns: Arbeite mit den Stakeholdern des Unternehmens zusammen, um die Anforderungen in Bezug auf PLM- und PDM-Prozesse zu verstehen Übersetze geschäftliche Anforderungen in klare funktionale und technische Lösungsentwürfe Entwirf und unterstütze PLM-Lösungen, die in SAP integriert sind und deren Schwerpunkte auf PTC Windchill und FlexPLM liegen Verwalte und verbessere PLM- und CAD-Systeme (PTC Creo), einschließlich Konfiguration, Anpassung, Upgrades und Release-Management Arbeite eng mit internen Teams und externen Implementierungspartnern zusammen, um eine qualitativ hochwertige Lösungsbereitstellung sicherzustellen Präsentiere Lösungskonzepte, Implementierungsansätze und Aufwandsschätzungen für die IT- und Geschäftsleitung Stelle sicher, dass Lösungen den IT-Governance-Standards, Architekturprinzipien und internen Richtlinien entsprechen Unterstütze PLM- und Anwendungslebenszyklusprojekte durch Test-, Validierungs- und Bereitstellungsaktivitäten Treibe die kontinuierliche Verbesserung von PLM, PDM und damit verbundenen Geschäftsprozessen voran Coache sowie unterstütze Kollegen und koordiniere Supportanfragen bei Bedarf Dein weg zu CYBEX: Starke Hands-On Erfahrung mit PTC Windchill, einschließlich Workflow-Konfiguration und Datenmodellierung Praktische Kenntnisse mit FlexPLM und gängigen PLM-Integrationsszenarien Erfahrung in der Integration oder Unterstützung von PLM/PDM-Lösungen in SAP-Umgebungen Fundierte Kenntnisse in PLM- sowie Application-Lifecycle-Management-Umgebungen Gutes Verständnis von End-to-End-Fertigungsprozessen, idealerweise in Make-to-Order-Umgebungen (MTO) Kenntnisse in den Bereichen Product Lifecycle Management, Produktdaten-Governance und Engineering-to-Production-Prozesse Souveräne Zusammenarbeit mit technischen Teams und Business-Stakeholdern Erfahrung in der Präsentation von Lösungskonzepten und Implementierungsschätzungen vor Entscheidungsträgern Fähigkeit zur Koordination mehrerer Teams, externer Dienstleister und Projekte Kenntnisse über SAP-PLM-Integrationsarchitekturen Deutschkenntnisse sind von Vorteil, da die Rolle eine enge Zusammenarbeit mit deutschsprachigen Business-Stakeholdern umfasst Wir agieren international und haben Mitarbeiter und Mitarbeiterinnen aus zahlreichen Nationen.
Dieser Job ist im Rahmen der Arbeitnehmerüberlassung mit Option auf Übernahme bei unserem Auftraggeber zu besetzen. Deine Aufgaben Du entwickelst, wartest und testest Datenpipelines zur neartime-Verarbeitung von Kundendaten nach modernen Software- und Data-Engineering-Prinzipien.Du stellst die Infrastruktur für Datenkonsument:innen sowie Machine-Learning-Modelle bereit und erschließt relevante Datenquellen technisch.Du dokumentierst technische Entscheidungsgrundlagen und bewertest verbundene Risiken.Du bringst Dich aktiv in die Optimierung der Entwicklungsprozesse im Team ein von CI/CD über DevOps bis hin zu MLOps.Du unterstützt dabei, aus Mensch-Maschine-Interaktionen automatisiert zu lernen und Kundenerlebnisse kontinuierlich zu verbessern.
Ihre Aufgaben: Leitung und Mitarbeit von Projekten im Bereich Digitalisierung und Datenanalyse Optimierung, Digitalisierung und Automatisierung der KPI-Landschaft Erstellung und Pflege von Berichten und Echtzeit-Dashboards Implementierung von Monitoringsystemen zur automatischen Abweichungsbenachrichtigung Erstellung von Best Practices und Dokumentationen im Datenmanagement Aktive Beteiligung an Verbesserungsprojekten, Umsetzung von AOS-Bricks und der EDD-Datenstrategie Koordination mit zentraler IT, „Methoden & Tools“ und externen Dienstleistern für Industrialisierung von Anwendungen (Spezifikationen, Tests, Datenprodukte) Organisation und Durchführung von Upskilling-Sessions zur Förderung von Datenkompetenzen Ihr Profil: Abgeschlossenes Studium (mind.
ROAS, CAC, conversion rates) and conduct ad‑hoc analyses to answer specific business questions.You support A/B tests, campaign evaluations, as well as forecasting and scenario analyses.You help ensure data quality, perform plausibility checks, and support tracking concepts and data integrations.You analyze customer journeys as well as lead and B2B funnels (MQL/SQL) and derive data‑driven recommendations to optimize performance.You work closely with performance marketing, eCommerce, and external agencies, and use AI‑driven analysis methods to evaluate user behavior.
Gestaltung, Konfiguration und Weiterentwicklung von Polarion ALMEntwicklung von Skripten, Workflows und Governance-ModellenEnd-to-end Betreuung von Requirements-, Test-, Defect-, Risk- und Release-ProzessenIntegration von Polarion und TeamcenterVerantwortung globaler ALM-Projekte und RolloutsErstellung von ALM-Blueprints und strategische Beratung von StakeholdernDefinition von Berechtigungen, Templates und Reporting-StandardsCoaching von Teams und Durchführung von WorkshopsPerformance-Optimierung und Steuerung komplexer Integrationen Tiefes Know-how in Polarion Architektur, Konfiguration und ScriptingErfahrung mit Requirements-, Test-, Defect-, Risk- und Release-ManagementKenntnisse in der Teamcenter-IntegrationErfahrung in globalen Implementierungs- und TransformationsprojektenStarkes Stakeholder-Management und sicheres Auftreten auf Executive-EbeneStrategisches, lösungsorientiertes Denken und klare Kommunikation Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 861290/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Gestaltung, Konfiguration und Weiterentwicklung von Polarion ALM Entwicklung von Skripten, Workflows und Governance-Modellen End-to-end Betreuung von Requirements-, Test-, Defect-, Risk- und Release-Prozessen Integration von Polarion und Teamcenter Verantwortung globaler ALM-Projekte und Rollouts Erstellung von ALM-Blueprints und strategische Beratung von Stakeholdern Definition von Berechtigungen, Templates und Reporting-Standards Coaching von Teams und Durchführung von Workshops Performance-Optimierung und Steuerung komplexer Integrationen Tiefes Know-how in Polarion Architektur, Konfiguration und Scripting Erfahrung mit Requirements-, Test-, Defect-, Risk- und Release-Management Kenntnisse in der Teamcenter-Integration Erfahrung in globalen Implementierungs- und Transformationsprojekten Starkes Stakeholder-Management und sicheres Auftreten auf Executive-Ebene Strategisches, lösungsorientiertes Denken und klare Kommunikation Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 861290/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Mein Arbeitgeber Language: English Administer and maintain Azure AI Foundry workspaces, environments, model catalogs, compute and configurations Manage lifecycle operations for LLMs, embeddings models and model deployments within the platform (excluding agent deployment) Ensure reliability, scalability, and performance of AI Foundry environments across all stages (dev/test/prod) Configure and maintain logging, tracing, telemetry and usage dashboards Monitor performance, cost, quota consumption and operational health of AI Foundry components Implement alerting and diagnostics to ensure platform stability Apply and maintain Azure RBAC, workspace governance and access policies inside the platform Ensure consistency in workspace structure, permissions and operational standards across teams Support internal teams in onboarding and safe platform usage Produce high quality documentation, runbooks, platform guides and onboarding materials Assist internal teams in using AI Foundry capabilities effectively / Provide hands-on troubleshooting and support for platform adoption Practical, hands-on experience managing Azure platforms in production environments Strong knowledge of Azure AI Foundry, Azure OpenAI, and related Azure AI/ML components Familiarity with LLM lifecycle management, platform operations, and governance Experience working autonomously within engineering or platform teams Strong communication skills and ability to assist internal teams Proven ability to produce clear and structured documentation Experience with Portkey for model routing, observability, caching, or guardrails Knowledge of Azure API Management (APIM) Understanding of other AI ecosystem tools such as Promptflow, MLflow, LangChain, or Semantic Kernel Exposure to cloud security best practices Start: April 2026 Remote work possible Ihr Kontakt Referenznummer 863216/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Als familiengeführtes Unternehmen mit rund 3.700 Mitarbeitenden in 34 Ländern wissen wir, dass es die Menschen sind, die mit vielfältigen Talenten und großer Begeisterung für ihre Aufgaben den Unterschied bei SCHUNK ausmachen. Starten Sie mit uns in eine dynamische Zukunft! Test: Sie verantworten den Aufbau, die kontinuierliche Optimierung und Überwachung eines wirksamen Internen Kontrollsystems (IKS) Hierzu gehören die Analyse und Bewertung von Geschäftsprozessen hinsichtlich Compliance-Konformität, Effizienz und Wirksamkeit von Kontrollen Sie entwickeln unser internationales Compliance Management System (CMS) weiter, einschließlich Richtlinien, Standards sowie regelmäßiger Compliance-Risikoanalysen Die Organisation und Durchführung risikobasierter interner Audits weltweit liegen in Ihrem Aufgabenbereich Die Konsolidierung von Audit- und Prüfungsergebnissen, die Ableitung praxisnaher Handlungsempfehlungen sowie die regelmäßige Berichterstattung gehören dazu Zudem beraten und unterstützen Sie unsere Fachbereiche bei Sonderprüfungen, Schulungen und Awareness-Maßnahmen sowie bei der Weiterentwicklung von Governance, Risikomanagement und einer internationalen Compliance-Community Test: Sie verfügen über ein abgeschlossenes Studium der Wirtschaftswissenschaften, des Wirtschaftsrechts oder über eine vergleichbare Qualifikation Mehrjährige Berufserfahrung, idealerweise mit Hintergrund in der Wirtschaftsprüfung im Internal Audit, Compliance oder Risikomanagement, zeichnet Sie aus Fundierte Kenntnisse internationaler Compliance-Standards sowie interner Kontrollsysteme (IKS) bringen Sie mit Begeisterung für den Neuaufbau und Freude daran, Strukturen und Prozesse von Grund auf zu konzipieren und kreativ zu gestalten Sie überzeugen durch Kommunikationsfähigkeit und Durchsetzungsvermögen auf allen Hierarchieebenen, um neue Standards erfolgreich zu implementieren Verhandlungssichere Deutsch- und Englischkenntnisse in Wort und Schrift runden Ihr Profil ab
Entwicklung datenbasierter Optimierungsvorschläge zur Steigerung der Shop-Performance Erstellung eines verständlichen, umsetzungsorientierten Maßnahmenkatalogs Weiterführende Aufgaben: Durchführung von Usability-Tests Sicherstellung einer benutzerfreundlichen Customer Journey Xovi als SEO- und Online-Marketing-Tool für Keyword-Recherche, Wettbewerbsanalyse, Onpage-Analyse etc.
Verantworten der hybriden und cloudbasierten Security, Governance & Compliance-Lösungen, mit Focus auf Microsoft Defender, Entra, Intune, Priva, Purview Überwachung der Netzwerke und Systeme auf potenzielle Sicherheitsverletzungen, einschließlich regelmäßiger Analyse der Log-Daten und Ereignisse Du informierst dich über Schwachstellen und behandelst diese mit den zuständigen Mitarbeitern im Rahmen des Schwachstellenmanagements Begleitung interner und externer Audits (z. B. Penetration Tests) sowie anschließende Ableitung von Maßnahmen Unterstützung bei der Weiterentwicklung und Pflege des unternehmensweiten ISMS Unterstützung bei der Firewall Administration Abgeschlossenes Hochschulstudium (Bachelor oder Diplom-FH) der Fachrichtung Informatik oder in vergleichbaren Studiengängen mit IT-Bezug Alternativ - abgeschlossene Ausbildung in einem entsprechenden Berufsbild und mehrjährige Berufserfahrung im Aufgabengebiet Umfangreiche Fachkenntnisse und Erfahrung in Microsoft 365 Produkten, insbesondere Microsoft Defender, Microsoft Purview Erfahrung im Aufbau, Ausbau und der Optimierung eines Security Monitorings Erfahrung in Konzeption und Administration von IT-Netzwerken und Firewalls sind von Vorteil Kenntnisse in der Anwendung unterschiedlichster Automatisierungswerkzeuge wie PowerShell, Ansible, Python, Power Automate oder anderen Technologien von Vorteil Problemlösungskompetenz und analytische Fähigkeiten Kommunikationsstärke und Teamfähigkeit Ausgeprägtes serviceorientiertes Denken und verantwortungsbewusstes Handeln Verhandlungssichere Deutsch- und Englischkenntnisse in Wort und Schrift Zuschuss zu vermögenswirksamer Leistung (VWL) Arbeitgeberfinanzierte Betriebliche Altersvorsorge oder Berufsunfähigkeitsversicherung Gute Entwicklungsmöglichkeiten durch Fortbildungen und Schulungsmaßnahmen Flache Hierarchien und kurze Informationswege Individuelle Karriereförderung Freundliche und wertschätzende Arbeitsatmosphäre Mitarbeiterküche und kostenfreie Getränke (Kaffee, Tee, Wasser) Kostenfreie Parkplätze Betriebliche Krankenversicherung JobRad (inkl. zusätzlicher Ratenunterstützung durch Concat) JobRoller Corporate Benefits Haben wir dein Interesse geweckt, dann freuen wir uns dich kennenzulernen!
Fachliche Ansprechperson für die Betriebspartnerschaft bei der Weiterentwicklung der Azure Plattform, einschließlich Anforderungsmanagement und Steuerung von VerantwortlichkeitenWeiterentwicklung bestehender Azure Landing Zones (CAF) auf Basis von Terraform mit klarer Abgrenzung zwischen zentraler Governance und sinnvoller EntwicklungsfreiheitAufbau und Pflege einer automatisierten Plattform mit reproduzierbaren, versionierten und standardisierten Policies sowie DeploymentsKonzeption und Betrieb von CI/CD Pipelines für Azure, die Microsoft Power Platform und Microsoft FabricUnterstützung der Entwicklungsteams durch Templates, Standards, Self Service Ansätze und definierte LeitplankenEtablierung von Logging, Monitoring, Metriken und Alerts zur Sicherstellung eines stabilen und qualitativ hochwertigen BetriebsBeratung und Begleitung von Teams mit Fokus auf einfache, sichere und gut nutzbare EntwicklungsplattformenEinsatz moderner KI Werkzeuge für Code Generierung, Tests, Dokumentation und Reviews Profunde praktische Erfahrung im Azure und DevOps UmfeldSehr gutes Verständnis von Plattform , Automatisierungs und CI/CD KonzeptenErfahrung mit Infrastructure as Code, Pipelines und Skripting im Microsoft ÖkosystemAusgeprägte Kommunikationsfähigkeit sowie die Fähigkeit, technische Themen klar und adressatengerecht zu vermitteln Tarifliches Gehalt, Betriebsrente und attraktive SozialleistungenHohe zeitliche und örtliche Flexibilität durch aufgabenorientiertes ArbeitenModerne, offene Arbeitsumgebungen, die kreatives und innovatives Arbeiten fördernGute Rahmenbedingungen zur Vereinbarkeit von Familie und BerufGesundheitsförderliche Arbeitsbedingungen und entsprechende Unterstützungsangebote Gehaltsinformationen Je nach Qualifikation Ihr Kontakt Ansprechpartner Marc Oettling Referenznummer 856746/1 Kontakt aufnehmen E-Mail: marc.oettling@hays.de Anstellungsart Festanstellung durch unseren Kunden
RAG-Anwendungen, Agenten oder Tooling) in stabile, produktive Services wie APIs, Backends oder Worker – inklusive Architektur, Error Handling und technischer Dokumentation Aufbau zuverlässiger Daten- und Dokumentenpipelines (Ingestion, Transformation, Indexing/Embeddings, Retrieval) als zentrale Bausteine für produktionsreife KI-Lösungen Entwicklung und Etablierung umfassender Test- und Qualitätsstrategien (Unit-, Integrations- und End-to-End-Tests) sowie LLM-spezifischer Evaluations- und Regressionsmechanismen (Eval-Sets, Guardrails, Versionierung) Aufbau und Betrieb von CI/CD-Pipelines, Umgebungen (Dev/Test/Prod) und Release-Prozessen für zuverlässige Bereitstellung GenAI-basierter Services Implementierung moderner Observability (Logging, Tracing, Metrics, Dashboards, Alerts) sowie Umsetzung von Security- und Governance-Standards (Identity/RBAC, Secrets, Policies) Ihr Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder vergleichbare Qualifikation Mehrjährige Erfahrung im Software Engineering, idealerweise mit Schwerpunkt Python; zusätzliche Kenntnisse in TypeScript, Java oder C# sind von Vorteil Erfahrung in der produktiven Entwicklung von Backend-Services einschließlich Tests, CI/CD und Integrationslandschaften Fundiertes technisches Verständnis für Betrieb und Stabilität produktiver Systeme – insbesondere Monitoring, Alerting, Incident-Readiness sowie Performance- und Kostenbewusstsein Praxis im Umgang mit Cloud-Technologien, bevorzugt Microsoft Azure (Identity, Secrets Management, Storage/Compute, Netzwerkgrundlagen) Strukturierte, qualitätsorientierte Arbeitsweise sowie der Anspruch, hochwertige und skalierbare GenAI-Lösungen in Produktion zu bringen Einsatzort: Dortmund ǀ Nordrhein-Westfalen
Wir entwickeln, fertigen und liefern unsere Premiumprodukte an die wichtigsten Hersteller in aller Welt in den Branchen Medical, Test&Measurement, Military, Robotics und wachsen seit über 30 Jahren sehr dynamisch. Als Legal Counsel / Syndikusanwalt (m/w/d) sind Sie zentraler rechtlicher Sparringpartner in einem international aufgestellten Unternehmensumfeld mit Standorten in Deutschland, USA, Vietnam, China und Hong Kong.
Das Entwicklungsteam freut sich auf eine/n Senior Cloud DevOps Engineer (m/w/d) Jetzt bewerben Die Aufgabe Sie verantworten das Design und die Entwicklung integrierter IaC-basierter Umgebungen für QA-Tests und ProduktionSie legen die Spezifikationen und Design-Transfers von der Entwicklungsabteilung zum IT-Operations Team fest (Entwicklungs- zu Produktionsumgebung) festSie stellen sicher, dass das Produkt-und IT-Team geschult und darauf vorbereitet ist, die neuen Cloud-zentrierten Produkte und Anwendungen zu verwalten und zu unterstützen Die Bereitstellung, Wartung, Überwachung und Fehlerbehebung von Cloud-Anwendungen und –Infrastruktur liegen in Ihren Händen Die Identifizierung, Überwachung und Dokumentation von SOUP-Komponenten zur Unterstützung der Cybersicherheit im Rahmen der Qualitätssicherung und der Einhaltung gesetzlicher Vorschriften liegen in Ihrem Aufgabengebiet Sie initiieren und fördern die Zusammenarbeit mit dem Software-Engineering zur Definition von Infrastruktur- und Bereitstellungsanforderungen Das Profil Sie verfügen über ein abgeschlossenes Hochschulstudium im Bereich Informatik oder eine vergleichbare Qualifikation, z.
IHRE AUFGABEN Relevante Umsetzung statt PowerPoint-Sport: Sie prüfen Projektaufträge auf Business Value, Budget-Impact und IT-Machbarkeit – und stoppen, was sich nicht rechnet End-to-End-Führung: Sie steuern IT-(Teil)Projekte über alle Phasen: Discovery/Anforderungen, Design, Build, Test, Cutover/Go-Live, Hypercare – mit klaren Meilensteinen sowie Risks/Issues/Dependencies Hybrid & agil, wo sinnvoll: Sie wählen das Vorgehen (agil, klassisch, hybrid) bewusst, liefern iterativ und halten Governance & Qualität hoch Ressourcen & Kapazitäten im Griff: Sie planen Skills, besetzen Teams, orchestrieren interne IT, Business, externe Partner sowie Near-/Offshore Stakeholder-Management: Sie moderieren Entscheidungen, führen Dailys/Reviews/SteerCos und berichten faktenbasiert an CIO oder CEO – transparent, knapp, belastbar Compliance by design: Sie stellen sicher, dass Security-/Privacy-Vorgaben (z.
IHRE AUFGABEN Relevante Umsetzung statt PowerPoint-Sport: Sie prüfen Projektaufträge auf Business Value, Budget-Impact und IT-Machbarkeit – und stoppen, was sich nicht rechnet End-to-End-Führung: Sie steuern IT-(Teil)Projekte über alle Phasen: Discovery/Anforderungen, Design, Build, Test, Cutover/Go-Live, Hypercare – mit klaren Meilensteinen sowie Risks/Issues/Dependencies Hybrid & agil, wo sinnvoll: Sie wählen das Vorgehen (agil, klassisch, hybrid) bewusst, liefern iterativ und halten Governance & Qualität hoch Ressourcen & Kapazitäten im Griff: Sie planen Skills, besetzen Teams, orchestrieren interne IT, Business, externe Partner sowie Near-/Offshore Stakeholder-Management: Sie moderieren Entscheidungen, führen Dailys/Reviews/SteerCos und berichten faktenbasiert an CIO oder CEO – transparent, knapp, belastbar Compliance by design: Sie stellen sicher, dass Security-/Privacy-Vorgaben (z.
Sie entwickeln das Informationssicherheitsmanagementsystem weiter und sorgen für die Einhaltung gängiger Standards Sie definieren Sicherheitsrichtlinien, Prozesse und Leitlinien und stellen deren Umsetzung im gesamten Unternehmen sicher Sie bewerten neue Technologien, Services und Systemarchitekturen bezüglich Informationssicherheit, Risiken und Compliance-Vorgaben Sie führen Risikoanalysen durch, erstellen Sicherheitsbewertungen und leiten entsprechende Maßnahmen ab Sie beraten Führungskräfte und Fachbereiche zu Sicherheitsanforderungen, Risikoeinschätzungen und Best Practices Sie steuern und überwachen Sicherheitsziele, Kennzahlen und Reviews, um eine kontinuierliche Sicherheitsverbesserung sicherzustellen Sie erhöhen das Sicherheitsbewusstsein im Unternehmen durch Awareness-Maßnahmen, Schulungen und klare Kommunikation Sie stellen den strukturierten Umgang mit Sicherheitsvorfällen sicher – inklusive Dokumentation, Klassifizierung und Lessons Learned Sie begleiten technische Analysen von Schwachstellen, Penetration Tests und Systemüberprüfungen Sie arbeiten mit dem operativen Cybersecurity-Team zusammen, z.?B. im Umfeld SIEM, Security Monitoring oder Incident Response-Prozesse Sie unterstützen Sicherheitsprojekte und begleiten die Umsetzung technischer und organisatorischer Maßnahmen Sie verfügen über fundierte Erfahrung im Informationssicherheitsmanagement, in Cybersecurity-Grundlagen sowie im Umgang mit Sicherheitsstandards und regulatorischen Anforderungen Sie haben ein Studium im Bereich Informatik, IT-Security, Wirtschaftsinformatik oder eine vergleichbare Qualifikation – alternativ eine IT-Ausbildung mit relevanter Berufserfahrung.
The role ensures that customer processes, data formats, and quality requirements are correctly understood, translated, and implemented in the map handling standard software or related solutions that support semiconductor manufacturing from wafer test through assembly and final test. The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
Je nach Schwerpunkt unterstützt du bei der Entwicklung moderner Anwendungen, beim strukturierten Koordinieren von Projekten oder beim Testen von Apps und Datenflüssen. Uns ist wichtig, dass du nicht nur mitläufst, sondern aktiv mitarbeitest, Verantwortung übernimmst und dich fachlich weiterentwickeln kannst.
Lesen Sie weiter… Mit Ihren Kenntnissen aus dem Studium und Ihrer Leidenschaft für das Thema können Sie bei den folgenden Aufgaben Erfahrungen bei uns sammeln: Erstellung von automatisierten Analysen und Bewertungen von aufgenommenem Bildmaterial und Datensätzen mittels Methoden aus Statistik und Data Mining sowie u.U. auch unter Miteinbezug von Sensor- und Navigationsdaten Merkmalsextrahierung und Analyse von Datensätzen mittels KI-basierten tiefen neuronalen Netzen Implementierung, Tests und Analyse von Verfahren zur dynamischen Anpassung von Kamera- und Bilddaten für die KI-Algorithmik im Zuge von Flugaufnahmekampagnen Erstellung von Datensätzen und Arbeit mit Datenbanksystemen Pflege von internen Dokumenten- und Wissensverwaltungssystemen Bei Interesse Unterstützung bei der Durchführung von Versuchskampagnen im Feld mehr weniger WAS SIE DAFÜR MITBRINGEN SOLLTEN Immatrikulation in einem Studiengang der Informatik, Computer Vision, Statistik, Data Analytics o.ä.
Datenmigration & Prozessunterstützung Du unterstützt bei Datenmigrationen sowie systemnahen Tests, um die Qualität neuer oder veränderter Daten sicherzustellen. Außerdem dokumentierst du Datenmanagementprozesse und hilfst bei der Erstellung von Trainingsunterlagen für die Stammdatenpflege.